les émotions sont exprimées d’une grande variété de façon, ce qui rend difficile de déduire de façon fiable comment se sent une personne à partir des seuls mouvements de son visage. Les données montrent par exemple que lorsqu’ils sont en colère, les gens ne se montrent pas nécessairement renfrognés. L’air renfrogné n’est qu’une expression de la colère parmi d’autres et la plupart du temps (70 %), les gens n’ont pas l’air renfrognés quand ils sont en colère. En fait, ils ont bien plus souvent l’air renfrognés quand ils ne sont pas en colère !
Cela signifie que les systèmes d’analyse émotionnels automatisés induisent tout le monde en erreur… « Voudriez-vous que dans un tribunal, une situation d’embauche ou un diagnostic médical ou dans un contrôle de sécurité à l’aéroport… faire confiance à un algorithme qui ne serait précis que 30 % du temps ? », insiste Lisa Barrett.
Et James Vincent de souligner un autre risque : que nous adaptions nos comportements aux défauts de nos machines… « De la même façon que les gens agissent maintenant en sachant que ce qu’ils font en ligne sera interprété par divers algorithmes (par exemple, en choisissant de ne pas aimer certaines images sur Instagram parce que cela affecte les publicités que l’on voit), nous pourrions finir par exagérer l’expression de nos émotions sur nos visages parce que nous savons qu’elles seront interprétées par des machines ».
http://www.internetactu.net/a-lire-ai...-fier-a-la-reconnaissance-de-lemotion
Vote 0
-
https://www.franceculture.fr/emission...2eme-partie-mercredi-22-novembre-2017
Vote 0
-
https://rslnmag.fr/cite/robots-pardon-humains-travail
Vote 0